iT邦幫忙

2021 iThome 鐵人賽

DAY 17
0
DevOps

中台化轉型系列 第 17

機器學習:深度學習

  • 分享至 

  • xImage
  •  

隨著理論的成熟,叢集運算能力的提升,深度神經網路模型逐漸發揮了巨大的影響力。

  • 神經元模型
    來自於對動物神經元工作機制的仿真(Simulation)。
  • 神經網路
    • 感知器學習演算法(Perceptron Learning Algorithm, PLA)
      是用來描述神經元模型的一種線性分類器。
    • 多層感知器學習演算法(Multi-Layer Perceptron, MLA)
      由多個PLA組成,由非線性激活函數的多次複合,構成了強大的計算能力。
      • 輸入節點(Input Node):將訊息傳送給隱藏節點
      • 隱藏節點(Hidden Node):負責計算並將結果傳送給輸出節點
      • 輸出節點(Output Node):負責對訊息的輸出
  • 演算法
    • 感知器(Perceptron)
      • 權值(w):
        如果當前神經元的輸入值權值與當前神經元激發值的影響為正相關。;
      • 偏移量(b):
        就像常數作用在多項式函數上一樣,定義了神經元的激發臨界值在空間上對決策邊界(Decision Boundary) 的平移影響。
      • 決策邊界(Decision Boundary):
        設輸入向量與權向量的內積為零,可得出 n+1 維的超平面。
      • 激勵函數(Activation Function):
        激勵函數決定神經元在輸入情況的觸發動作。
        • Sigmoid:二焦點曲線函數
        • RelU:整流線性單位函数(Rectified Linear Unit)
    • 代價函數(Cost Function)
      用來描述鏈式法則中結果值的預測值與真實值的誤差。
    • 正向傳播(Forward Propagation)
      從輸入層到輸出層,依據神經元模型的計算規計算與儲存,最後將結果輸出。
    • 反向傳播(Backward Propagation)
      根據鏈式法則中結果值的預測值與真實值的誤差,從輸出層到輸入層的反向順序,進行相對於代價函數梯度下降運算和參數樹更新。
    • 疊代運算
      神經網路模型的運算過程包括正向傳播和反向傳播。

上一篇
機器學習:演算法
下一篇
機器學習:模型訓練架構
系列文
中台化轉型30
圖片
  直播研討會
圖片
{{ item.channelVendor }} {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言